Meta wystawia swoich użytkowników na „falę” dezinformacji, potępia organizację pozarządową

Opublikowano , zaktualizowano
Zapowiedź firmy Meta dotycząca rezygnacji z programu sprawdzania faktów i systemów wykrywania mowy nienawiści może skutkować zaprzestaniem 97% jej obecnych prac moderacyjnych.
Pomiń reklamęNowa polityka moderacji Meta , firmy macierzystej Facebooka i Instagrama, grozi zwiększeniem „dezinformacji i niebezpiecznych treści” w tych dwóch sieciach, ostrzegła w poniedziałek organizacja pozarządowa walcząca z dezinformacją w Internecie. Według badania przeprowadzonego przez Centrum Zwalczania Cyfrowej Nienawiści (CCDH), ogłoszone przez Meta porzucenie programu sprawdzania faktów i systemów wykrywania mowy nienawiści może skutkować zaprzestaniem 97% obecnych prac moderacyjnych, a w konsekwencji „falą” treści szkodliwych dla użytkowników Internetu.
Organizacja pozarządowa dokonała tej oceny, analizując główne zmiany ogłoszone przez Meta 7 stycznia, w tym zastąpienie fact-checkingu ocenami społeczności i porzucenie zasad dotyczących „imigracji, tożsamości płciowej i płci”. „Meta musi wyjaśnić swoim użytkownikom, dlaczego odchodzi od podejścia, które przedstawiała jako skuteczne w walce z dezinformacją i polaryzacją” opinii – podkreśla CCDH w swoim raporcie.
7 stycznia, kilka dni przed inauguracją Donalda Trumpa, szef Meta, Mark Zuckerberg, ogłosił, że zamierza „pozbyć się fact-checkerów i zastąpić ich ocenami społeczności” , wierząc, że wybory były „kulturowym punktem zwrotnym” , który daje „priorytet wolności słowa”. Kalifornijska grupa dodała, że chce „uprościć” swoje zasady i „znieść pewną liczbę ograniczeń dotyczących takich tematów, jak imigracja i płeć, które nie są już dominującym dyskursem” . Po tej zmianie nastrojów nastąpiło niedawne ogłoszenie zmiany polityki serwisu społecznościowego Elona Muska, X.
Przeczytaj także : „To stanie się komercyjnym bólem głowy”: 180-stopniowy zwrot Meta w kwestii moderacji pogrąża reklamodawców w niepewności
Bliski doradca Donalda Trumpa obiecał w czwartek, że „naprawi” funkcję serwisu X, która pozwala użytkownikom odrzucać lub kwalifikować potencjalnie fałszywe publikacje, obwiniając „rządy i tradycyjne media” za przejęcie tej funkcji na tle nieporozumień z Ukrainą. Szef CCDH, Imran Ahmed, uważa, że chociaż oceny społeczności pozostają „mile widzianym dodatkiem do środków bezpieczeństwa platformy” , ten model bazujący na udziale użytkowników Internetu „nie może i nigdy nie będzie w stanie całkowicie zastąpić dedykowanych zespołów moderujących i wykrywania za pomocą sztucznej inteligencji” .
AFP uczestniczy w ponad 26 językach w programie weryfikacji faktów opracowanym przez Facebooka, który płaci ponad 80 mediom na całym świecie za korzystanie z ich „weryfikacji faktów” na swojej platformie, w WhatsAppie i na Instagramie.
skrypt danych=https://static.lefigaro.fr/widget-video/short-ttl/video/index.js>
lefigaro